AI-인간 상호작용 루프에서의 병목
- 2025-03-23 (modified: 2025-07-13)
메모
2025년 7월 12일
생각한 걸 정확히 쓰기도 어렵고, 정확히 썼더라도 그에 따른 기결이 예상과는 다르다. AI 에이전트에게 자연어로 지시하는 현재 방식의 문제점을 정확히 잡아낸 문장:
What you write down doesn’t mean exactly what you think it means. And when it does, it doesn’t have the consequences you expected. —Daniel Jackson, Software Abstractions: Logic, Language, and Analysis
위 문제에 더하여, 환각으로 인해 AI는 내가 지시한 걸 정확히 따르지 않을 때가 있다. 게다가 AI가 결과를 자연어로 설명하는 경우 이 설명이 실제 일어난 일과 다를 때가 있다. 그리고 인간이 이 자연어 기술을 읽고 잘못 해석할 수 있다. 다 합치면 이런 문제들이 있다:
- (인간이) 생각을 똑바로 하기 어렵다.
- (인간이) 생각을 똑바로 표현하기 어렵다.
- (AI가) 지시를 똑바로 수행하지 않는다.
- (AI가) 수행의 결과를 똑바로 기술하지 않는다.
- (인간이) 기술을 똑바로 읽고 이해하기 어렵다.
2025년 5월 6일
생성형 위키피디아 UI 실험
2025년 4월 21일
공짜 LLM이 많은데 내가 게을러서 활용을 못하고 있길래 AI가 매일 생각할 거리를 던져주게 RSS 피드를 만들었다.
- 하나는 철학적인 질문
- 다른 하나는 사업 아이디어
프롬프트를 이리저리 바꿔가며 좀 더 좋은 글이 나오게 다듬어야겠다.
다음에는 노이즈가 많은 RSS 피드를 필터링해주거나 요약해주는 걸 만들어야겠다. 읽어야할 글을 어떻게든 줄이는 게 중요한 것 같다.
2025년 4월 17일
컴퓨터를 쓰는 동안 어떤 맥락에서나 쉽게 LLM을 이용할 수 있도록 Hammerspoon LLM script를 만들었다.
2025년 4월 12일
에이전트 기반 코딩 실험을 통해 코딩에서의 병목을 좀 줄여봤다. 계획만 전문으로 세우는 에이전트를 써서 문서를 미리 만들어두도록 하면, 이후에는 인간이 지시를 길게 주절주절 쓸 필요가 줄어든다.
2025년 3월 4일
OpenAI 플러스 요금제 사용자도 월 15회 딥 리서치를 쓸 수 있게 됐다. 읽건 안 읽건 이틀에 한 번 꼴로 의미 있는 질문을 던지고 결과물을 확보해서 챙겨놔야 겠다. 내 게으름과 멍청함에서 오는 병목이 점점 심해지고 있다.
2024년 10월
AI는 이미 충분히 유익하지만 1) 내 습관 형성이 아직 되질 않아서 AI를 쓰면 좋은 상황에서도 AI를 안쓰고 있고, 2) AI를 잘 쓰기 위한 노력(성실한 프롬프트 작성, 사실 확인 등)을 충분히 하지 않고 있으며, 3) AI가 쓴 글을 정독하지 않는 경향이 있다.
내게 필요한 시스템:
- 스스로의 코드를 점진적으로 개선하는 시스템
- 유익한 결과(투입이 아니라)를 만드는 시스템
- 내가 지속적으로 발전하게 유도하는 시스템
- 내가 노력하지 않아도 매일 꾸준히 쓰도록 유도하는 시스템
- Passive + Active. 어떤 부분은 내가 아무것도 안해도 알아서 돌아가도록
- 먼저 내게 말 걸기
- 내가 시킨 일을 백그라운드에서 하다가 미리 정한 조건을 만족하면 알려주기
- 내가 원래 하던 무언가에서 자연스럽게 이어지기
- 내 위키의 RecentChanges를 보다가 작동되기
- 내 브라우저 히스토리를 보다가 작동되기
2023년 7월 28일
AI-인간 상호작용 루프는 아래와 같이 나눠볼 수 있다.
- 인간이 의도를 구체화하는 단계
- 인간의 의도를 AI에게 전달하는 단계 (또는 채널)
- AI가 응답을 생성하는 단계
- AI가 응답을 인간에게 전달하는 단계 (또는 채널)
- AI의 응답을 인간이 이해하는 단계
1과 5에 대한 문제는 언제나 있었고 AI가 있건 없건 꾸준히 계발을 해야할테고, 2)는 현재 “텍스트 입력”, “음성 입력”, “낙서” 등이 있는데 정교하지도 않고 효율적이지도 않다. 4)는 “텍스트 출력”, “음성 출력”, “이미지 출력” 등인데 역시나 정교하거나 효율적이지 않다.
인간-인간 소통에서는 효율을 높이고 애매모호함을 줄이기 위해 “형식화”를 한다. 대표적 사례는 이공계열 논문. 배우기 쉽고 쓰기 쉽고 표현력이 풍성한 형식 언어(또는 준형식 언어)가 있으면 좋겠다.
개선책에 대한 느슨한 생각들:
- 타입 시스템은 의도를 구체화하고 이를 표현하는 과정을 돕는 효과가 있다. 인간-AI 협업 루프에서 병목은 대체로 AI가 아니라 인간인데(명확한 사고, 간명한 표현, AI의 응답을 이해), 정적 타입이 병목을 줄이는 역할을 일부 할 수 있을 것 같다. 예를 들면 이런 시도: microsoft.github.io/TypeChat/
- TypeChat 유사한 범주: github.com/dzhng/zod-gpt
- Hoogle+ github.com/TyGuS/hoogle_plus
- 버튼을 클릭한 후 “이걸 검정색으로 바꿔”라고 지시대명사를 쓰기. webstudio.is/
- 2024-02 When Words Cannot Describe: Designing For AI Beyond Conversational Interfaces
- Prolog를 LLM을 위한 정신어로 쓰기. x.com/intuitmachine/status/1818964502454345938?s=46